Kako izbjeći prevare
Lažne eksplozije, lažne rakete, lažne trupe: Videozapisi i slike rata u Iranu kreirane umjetnom inteligencijom šire se društvenim mrežama

Nakon što je Rusija izvršila invaziju na Ukrajinu 2022. godine, društvene mreže su bile preplavljene lažnim materijalima koji su predstavljeni kao svježe slike rata, ali su bili ili fotošopirani lažni materijali ili pogrešno označeni isječci preuzeti iz videoigara, filmova, prošlih incidenata i nepovezanih vijesti.
Te vrste staromodnih lažnih ideja ponovo se šire tokom rata protiv Irana. Ovaj put im se pridružio oblik obmane koji nije bio lako dostupan 2022. godine: visokokvalitetni videozapisi i fotografije koje su prilagođeno kreirane pomoću jednostavnih alata umjetne inteligencije.
Prije deset godina, rekao je Hany Farid , profesor digitalne forenzike na Univerzitetu Kalifornija u Berkeleyu, rekao je da bi postojala jedna ili dvije lažne stvari; one bi se prilično brzo razotkrile. "Sada ih vidite stotine i one su zaista realistične".
"Ono što se promijenilo u posljednjih godinu dana jeste da je generativna umjetna inteligencija postala mnogo dostupnija", rekao je Shayan Sardarizadeh, viši novinar BBC Verifyja, istaknuti razotkrivač lažnih informacija povezanih s ratom, "i sada je moguće kreirati vrlo uvjerljive videozapise i slike koji prikazuju značajan ratni incident koji je teško uočiti neobučenom ili golom oku".
Lažni videozapisi i slike koje su stručnjaci poput Sardarizadeha identificirali kao one koje je stvorila umjetna inteligencija prikupili su desetine miliona pregleda na platformama društvenih medija u gotovo dvije sedmice od početka rata u Iranu.
Jedan lažni video prikazuje izmišljenu baražnu paljbu iranskih raketa koje navodno pogađaju Tel Aviv u Izraelu. Drugi lažni video prikazuje ljude u panici koji bježe od navodnog iranskog napada na aerodrom u Tel Avivu. Treći lažni video navodno prikazuje zarobljene pripadnike američkih specijalnih snaga koje iranske trupe drže na nišanu oružjem.
Još jedan lažni video tvrdi da prikazuje isječke sa sigurnosnih kamera koje snimaju dizanje u zrak iranskih vojnih objekata; tri isječka izgledaju kao da su napravljena umjetnom inteligencijom , dok je jedan stvaran, ali iz prošle godine. Još jedan lažni video prikazuje zamišljeni konvoj američkih trupa na terenu u Iranu. Još jedan lažni video izgleda kao snimak oborenog američkog aviona koji paradira kroz Teheran, piše CNN u tekstu koji problematizira ovu sve češću pojavu.
Lažne fotografije koje izgledaju kao da ih je kreirala vještačka inteligencija, s druge strane, tvrde da prikazuju američku vojnu bazu u Iraku i američku ambasadu u Saudijskoj Arabiji kako gori nakon iranskih napada; iranskog vrhovnog vođu Alija Hamneija kako leži mrtav pod ruševinama ; i Irance koji oplakuju mrtve civile . Publikacija povezana s iranskom vladom čak je objavila lažnu satelitsku snimku koja navodno prikazuje štetu na američkoj vojnoj bazi u Bahreinu.
A to je samo mali uzorak lažnih informacija povezanih s Iranom koje su u opticaju.
Bolje laži, manje moderacije
Uprkos svakodnevnim naporima ljudi poput Sardarizadeha da ih razotkriju, novi lažni profili se pojavljuju mnogo brže nego što ih se može suzbiti. Često su dovoljno realistični da prosječna osoba koja pregledava njihov feed ne može brzo uočiti da su lažni.
Nekoliko lažnih vijesti koje su se široko proširile promovirane su kao propaganda od strane proiranskih naloga na društvenim mrežama. Međutim, motivaciju iza stvaranja mnogih lažnih vijesti teško je identifikovati - možda su to stavovi na društvenim mrežama i utjecaj i novac do kojeg ponekad mogu dovesti, možda samo zato što su ih ljudi mogli lako napraviti.
Farid je primijetio da su se kompanije društvenih medija okrenule od agresivnog moderiranja sadržaja na svojim platformama.
"Sadržaj je realističniji, volumen je veći, prodiranje je dublje - ovo je naša nova stvarnost. I zaista je neuredna", rekao je Farid.
Platforma društvenih medija X je prošle sedmice objavila da poduzima određene mjere za borbu protiv lažnih verzija sadržaja koje je koristila umjetna inteligencija tokom rata. Šef proizvoda Nikita Bier objavio je da će korisnici koji primaju platu od X-a kao "kreatori " sadržaja širiti videozapise oružanih sukoba generirane umjetnom inteligencijom bez otkrivanja da su videozapisi napravljeni pomoću umjetne inteligencije, biti suspendovani iz programa plaćanja na 90 dana, a zatim trajno suspendovani ako počine dodatne prekršaje.
Čak i ako se ova politika strogo provodi - Farid je rekao da je skeptičan - ogromna većina X korisnika nije dio programa plaćanja kreatorima. (Objave drugih korisnika i dalje su predmet provjere činjenica putem "bilješki zajednice" putem crowdsourcinga, ali to ima neujednačenu evidenciju.) Kompanije društvenih medija TikTok i Meta, koja posjeduje Facebook i Instagram, nisu odgovorile na zahtjeve CNN-a za komentar o širenju lažnih informacija vezanih za rat.
A Sardarizadeh već mjesecima primjećuje da je Grok, vlastiti AI chatbot kompanije X, u nekim slučajevima aktivno pogoršao problem – pogrešno govoreći korisnicima koji traže provjeru činjenica da su brojne slike i videozapisi koje je kreirala umjetna inteligencija, uključujući i neke koji prikazuju rat u Iranu , stvarni.
Kako izbjeći da budete prevareni
Jednostavno rečeno, danas je teško razlikovati pravo od lažnog. Farid je rekao da brzo poboljšanje kvalitete AI kreacija znači da savjeti od prije čak i nekoliko mjeseci o tome kako prepoznati AI lažne radove danas nisu korisni. Na primjer, nekada je bilo korisno provjeriti da li osoba na slici ima dodatne prste ili pogrešno postavljene udove; ljudi predstavljeni u trenutnom AI sadržaju obično su oslobođeni takvih komičnih grešaka.
Farid je rekao da je najbolji način da ostanete tačno informisani da odaberete da dobijate vijesti od vjerodostojnih novinarskih izvora umjesto da pregledate objave sa "slučajnih naloga" na društvenim mrežama. "U trenucima globalnog sukoba", rekao je, "ovo nije mjesto za dobijanje informacija".
Za one od nas koji ne mogu izbjeći često pregledanje sadržaja, mudro je da zastanu i barem nekoliko sekundi pretraže internet prije nego što povjeruju ili podijele senzacionalan video ili sliku iz rata.
Da li vam se išta čini čudnim u vezi s tim - zvuk nije sinhronizovan sa videom, vizuelne karakteristike ne odgovaraju stvarnom svijetu? Vještačka inteligencija postaje sve bolja i bolja, ali je i dalje nesavršena. A neke kreacije umjetne inteligencije i dalje imaju vodene žigove koji identificiraju softver koji ih je napravio.
Da li je neki poznati razotkrivač poput Sardarizadeha, medijska kuća koja provjerava činjenice ili stručnjak za određenu oblast osporavao istinitost videa ili slike? Ako je lažan, neki profesionalac je često to istakao prije nego što stigne do vašeg feeda.
Da li postoje ljudi koji izražavaju skepticizam u odgovorima na objavu ili bilješkama zajednice korisnika X? Prosječni korisnici mogu obmanjivati, ali mogu i postavljati dobra pitanja.
A šta kažu besplatni alati za detekciju umjetne inteligencije? Daleko su od savršenih, ali i oni ponekad mogu pomoći.
Sardarizadeh je rekao da bismo trebali "trenirati oči" da što bolje prepoznaju materijal koji generira umjetna inteligencija. Ali je također rekao: "Postaje izuzetno teško otkriti sadržaj generiran umjetnom inteligencijom, a čini se da putanja ide u smjeru da to uskoro postane još teže".
╰┈➤ Program N1 televizije možete pratiti UŽIVO na ovom linku kao i putem aplikacija za Android /iPhone/iPad
Kakvo je tvoje mišljenje o ovome?
Učestvuj u diskusiji ili pročitaj komentare